EvoClass
IA012
Plongée approfondie dans les grands modèles linguistiques
Études de cas et stratégies de déploiement des grands modèles linguistiques courants
Objectifs d'apprentissage
- Analyser les différences structurelles entre les architectures à encodeur unique (BERT), décodeur unique (GPT) et encodeur-décodeur (T5).
- Expliquer le processus d'entraînement en trois étapes : pré-entraînement (modèle de base), ajustement par instruction (SFT) et alignement (RLHF/PPO).
- Comparer les performances, lois d'échelle et innovations architecturales des grands modèles linguistiques courants, notamment GPT, Llama, Qwen et DeepSeek.